ChatGPT, DeepSeek oder Google Gemini mögen wie reine Softwareprodukte erscheinen, doch hinter diesen Anwendungen steckt eine gewaltige physische Infrastruktur. Um Modelle dieser Größenordnung zu trainieren und zu betreiben, reichen herkömmliche Computer längst nicht mehr aus. In diesem Vortrag erfahren Sie, wie moderne KI wirklich funktioniert – und auf welcher Hardware sie basiert. Schritt für Schritt wird verständlich gemacht, was beim Training riesiger Sprachmodelle im Hintergrund passiert und warum Rechenleistung zur entscheidenden Ressource des 21. Jahrhunderts geworden ist.
Inhalte des Vortrags:
Rechenleistung & FLOPS: Warum sie die neue Währung der KI-Ökonomie sind.
GPUs und Spezialchips: Wie sie Milliarden Berechnungen parallel ausführen und so das Lernen von Modellen wie ChatGPT ermöglichen.
Cloud & Skalierung: Wie globale Rechenzentren die Infrastruktur für generative KI bilden – von Training bis Echtzeitbetrieb.
Aktuelle Entwicklungen: Vom „DeepSeek-Moment“ über die Chip-Knappheit bis hin zu neuen Effizienzstrategien.
KI-Hype und Spekulationsblasen: Wie nachhaltig sind die aktuellen Fortschritte wirklich? Werden die enormen Investitionen in KI-Infrastrukturen die versprochenen Durchbrüche liefern, oder droht eine Überschätzung der tatsächlichen Kapazitäten?
Wer verstehen möchte, was KI wirklich antreibt – und warum Nvidia zur neuen Supermacht der digitalen Welt geworden ist –, bekommt hier einen klaren und anschaulichen Blick hinter die Kulissen der KI-Infrastruktur
und ihrer wirtschaftlichen Implikationen.